尽管深度学习模型在监督的学习任务上表现出了令人印象深刻的表现,但在培训(源)和测试(目标)域不同时,它们通常会努力概括地概括。无监督的域适应性(DA)已成为解决此问题的流行解决方案。但是,当前的DA技术依赖于视觉主干,这可能缺乏语义丰富。尽管大规模视觉语言基础模型(如剪辑)有潜力,但其对DA的有效性尚未得到充分探索。为了打扮这个差距,我们介绍了AD-CLIP,这是一种域名迅速学习策略,旨在解决及时空间中的DA问题。我们利用夹子的冷冻视频主干来提取图像样式(域)和内容信息,我们将其应用于学习提示令牌。我们的提示是通过同时调节图像样式和内容功能的及时学习的,以域名为域不变且可将其归纳。我们在源域中使用标准监督的对比度学习,同时提出熵最小化策略以使嵌入空间中的域中的域与焦油域数据相结合。我们还考虑了一个方案,其中仅在测试过程中仅可用目标域样本,并带有任何源域数据,并提出了一个跨域样式映射网络以使幻觉域 - agnoftic to-kens。我们在三个基准DA数据集上进行的广泛实验证明了与现有文献相结合的AD-CLIP的有效性。代码可从https://github.com/mainaksingha01/ad-clip